作者:王砚峰
链接:https://www.zhihu.com/question/59955680/answer/175411676
来源:知乎
著作权归作者所有。商业转载请联系作者获得授权,非商业转载请注明出处。

多任务学习(Multi-Task Learning)的方法:充分利用不同语种翻译的相关性,采用共享相同的NMT参数同时学习多个翻译任务,以A和C的翻译任务为例,首先建立A与B、A与C共享的一套NMT网络,其中该NMT网络的输入是A,输出有两个,分别是B和C,训练的过程中A与B、A与C的标注平行语料共同更新一套NMT网络的参数,与使用较少的A与C语料单独训练的NMT网络相比,翻译效果有较大提升。此外,谷歌于2016年下半年提出的Zero-Shot翻译方法,基于多语种共享的词汇集,使用单个神经机器翻译(NMT)模型在多种语言之间进行翻译,除了提升训练数据中包含的语种对之间互译的翻译质量之外,很有意义的是,还能完成训练数据中不包含的语言对之间的zero-shot翻译。

  • □Thang Luong, Quoc Le, Ilya Sutskever, Oriol Vinyals, and Lukasz Kaiser, Multi-task Sequence to Sequence Learning,ICLR 2016.
  • □Melvin Johnson, Mike Schuster, Quoc V. Le, Maxim Krikun, Yonghui Wu, Zhifeng Chen, Nikhil Thorat, Fernanda B. Viégas, Martin Wattenberg, Greg Corrado, Macduff Hughes, and Jeffrey Dean. Google’s multilingual neural machine translation system: Enabling zero-shot translation.